* xfaces.c (unload_color): Don't #include <X11/Intrinsic.h>,
authorJim Blandy <jimb@redhat.com>
Sun, 30 May 1993 20:34:54 +0000 (20:34 +0000)
committerJim Blandy <jimb@redhat.com>
Sun, 30 May 1993 20:34:54 +0000 (20:34 +0000)
<X11/StringDefs.h>, or <X11/Xmu/Drawing.h>.  Just write out
"unsigned long" instead of using the "Pixel" typedef; it's in the
protocol, so it's not likely to change.

src/xfaces.c

index 92679312b2431acb9c8bfac91b30ea8f4ee8b61a..c07bf035f5b13ba14413a2fba3a1b1857fef8593 100644 (file)
@@ -40,10 +40,14 @@ the Free Software Foundation, 675 Mass Ave, Cambridge, MA 02139, USA.  */
 #define __TIMEVAL__
 #endif
 
+/* These don't seem to be used.  */
+#if 0
 /* Display Context for the icons */ 
 #include <X11/Intrinsic.h>
 #include <X11/StringDefs.h>
-/* #include <X11/Xmu/Drawing.h> */  /* Appears not to be used */
+#include <X11/Xmu/Drawing.h>
+#endif
+
 #include <X11/Xos.h>
 
 \f
@@ -428,7 +432,7 @@ load_color (f, name)
 static void
 unload_color (f, pixel)
      struct frame *f;
-     Pixel pixel;
+     unsigned long pixel;
 {
   /* Since faces get built by copying parameters from other faces, the
      allocation counts for the colors get all screwed up.  I don't see